范明志:智慧司法的基本逻辑——数字技术与司法如何对应
摘要:数字技术与司法的结合,促使了智慧司法的发生发展。数字技术与司法相结合的基本逻辑在于数字技术确定性与司法法定性之间的对应关系,其已有成就突出表现在诉讼程序的数字化改造。然而这种对应关系能否延伸到司法裁判环节并促生人工智能法官?裁判不同于其他司法环节,其与数字技术的非对应性决定了人工智能法官命题蕴含了数字技术与司法关系的重重悖论。但是,由于司法裁判并非总是以“典型”方式存在着,人工智能仍可以为人类法官提供智能协助,或处理某些“类型化”案件,但这只是人工智能对自然人法官的辅助功能。在现有意义的法律“死亡”之前,智慧司法的推进不应只看数字技术提供的可能性,更要尊重司法自身被数字化的可能与需要,只有尊重司法规律才能促进智慧司法的发展。
关键词:数字技术;智慧司法;司法的确定性;司法规律
目次
一、问题的提出
二、数字技术确定性与司法法定性的对应关系
三、确定性视角下人工智能法官命题中的悖论
四、“非典型性”司法对人工智能的接纳空间
五、结语:思考智慧司法的角度与更高的假设
一、问题的提出
由互联网、大数据、云计算、人工智能和区块链等所组成的数字技术,不断地驱动着司法信息化的进程,促成了智慧司法的巨大成就。梳理我国智慧司法的发展状况,可以看出,在司法信息化整体发展进程中,大部分司法环节都实现了数字化的运行方式,而智慧审判对信息技术的利用仍然停留在“类案推送”的辅助裁判阶段,最高人民法院在推进智慧审判过程中也强调“尊重法官主体地位”。但是无论在实务界还是在学界,如何实现司法信息化的突破性发展,是否会产生人工智能法官,已然成为当前热烈讨论的话题。目前美国刑事诉讼程序中,算法已经被大量运用于预测个体是否会再次犯罪、是否会在开庭日出庭等的可能性,从而影响关于保释、量刑和假释的决定;已有一半以上的州在司法实践中利用风险评估软件来辅助法官量刑。已有的智慧司法成果似乎展示了这样一种基本逻辑:智慧司法的发展取决于信息技术的发展水平,未来无可限量的信息技术会自然而然地催生“人工智能法官”。如此看来,司法以前是、将来也是智慧司法中信息技术所造化的客体,信息技术的发达程度是决定智慧司法发展水平的决定性因素。该观点是否成立,需要审视智慧司法发生发展的根本逻辑,对于智慧司法中的数字技术与司法这两个基本要素的关系进行分析,从而描述出智慧司法发展的内在逻辑,并解决智慧司法的立场性问题:是否会产生人工智能法官?笔者认为,人工智能法官命题的法学意义在于:法官的裁判职能可否以及在何等程度上可以被信息技术所代替,而不是信息技术发展到什么程度可以产生人工智能法官。为充分、彻底地论证司法与信息技术的关系,本文将论证建立在一个假设之上:人工智能可以发展到能够满足作为法官的所有能力条件(包括认定事实和适用法律的能力)的水平。当然,本文无意为智慧司法建设提供一个终极性解决方案,仅对数字技术与司法结合的逻辑进行一个基础性研究。
二、数字技术确定性与司法法定性的对应关系
确定性是指客观事物联系和发展过程中必然的、有规律的、精确的属性。数字技术的确定性是指数字技术在运行中对于数字(信息)的处理是按照一定的规则进行并得到清晰而精确结果的特性。算法可以分为确定性算法和非确定性算法,从目前来看,确定性是数字技术推进智慧司法发生发展的最基本技术特征。之所以司法的法定性能够与数字的确定性发生契合性的对应关系,并进而形成智慧司法的发展态势,是因为司法的法定性在一定程度上也表现为司法的确定性。具有确定性的数字技术与法定性的司法能够建立直接的对应关系,成为智慧司法发生发展的底层逻辑。这种关系可以从智慧司法的发展过程中得以印证。
确定性是信息技术的基本特点。从计算机语言的形态来看,以0和1为基础的二进制机器语言、可识别并操作指令的汇编语言以及高级编程语言如C语言,均是对数字(据)进行“计算”功能上的语言。这种计算方式,克服了人工思维的“模糊性”,以一种“1+1=2”的稳定逻辑实现从输入数据到计算结论的对应性。信息技术正是以其确定性淘汰了模糊性的机械控制技术,将人类引入信息社会。即使在计算过程中存在某些变量,仍然不妨碍其计算逻辑的确定性,当变量数值确定之后,其计算结果也是确定的。确定性算法即使具有“黑箱”效应,也不妨碍计算结果的确定性,因为算法本身也是一种计算方法,它是一系列有限的、定义明确的计算机可执行指令,用于解决一组特定数据的计算问题。从初始输入到结果输出,由于遵循特定的算法指令,无论重复多少遍,其结论仍然不变(除非是随机算法)。当然也存在非确定性算法,并非每一个局部分析结果都会成为最终结果的组成部分,计算结果对于最优解具有近似性或者逼近性。显然这种算法很少应用于司法领域。正是基于数字技术的确定性,数字信息的传输、储存等功能才为智慧司法提供了强大的基础逻辑:将司法行为以数字化的方式呈现出来并实现司法的功能。到目前来看,智慧司法几乎所有内容,从庭审笔录的电子化制作到裁判文书网络公开,从诉讼材料电子化到网上开庭,均是基于数字技术对于信息描述和储存以及传输的确定性。
区块链技术进一步增强了数字技术的确定性。它不仅可以得出精确的计算结果,而且能够使该计算结果以其特定的分布方式避免被篡改。这种具有“计算确定性+防篡改性”的信息技术为人类生活信息化提供了更值得信赖的数字呈现方式。这种信赖性恰恰是建立数字司法的关键所在,因为司法的权威性需要以司法的确定性作为基础。区块链技术这一特性已经在证据效力上得到法律上的确认,而且,其适用对象从证据开始扩大到了诉讼程序、裁判文书等领域。
智能合约是在区块链技术上发展出来的一项法律应用。“一个智能合约是一套以数字形式定义的承诺(commitment),包括合约参与方可以在上面执行这些承诺的协议”,智能合约的优越性主要体现在其运行结果的确定性,可以排除人为操作带来的可能性质疑。在司法领域,智能合约可以将法律规则转化为数字技术规则,以技术契约的形式自动化执行法律,从而实现所谓的“法律代码化”。比如,北京、上海的法院通过调解书或判决书中约定的履行条件,部署线上合约节点,当事人只需点击“确认未履行完毕”,就能触发生成未履行报告和执行申请书,系统将自动抓取相关案件信息,执行立案,并生成执行通知书、报告财产令等文书。智能合约这种确定性不仅对接了诉讼程序的法定性,也似乎为人工智能法官的可能性提供了一种佐证:当各种诉讼因素被数字化之后,法律就可以实现自动运行,人工智能法官就是其表现形式之一而已。
机器学习是智慧司法发展的另一个重要技术基础。从目前来看,智能合约毕竟只能适用于法律含义比较简单的诉讼程序当中,如何使法律的自动运行能够适应复杂的案件纠纷,以及法律的发展变化,则需要机器学习技术。通过对人工智能不断提供新的法律信息等数据资料,智慧司法通过机器学习取得自身的进步,从而适应对社会的发展。机器学习的基础是数学建模,以人工设计或者自主训练的模式,进行判别式学习。这为智慧司法与时俱进发展提供了技术基础,从而使智慧司法免于僵化与落后。机器学习可以是一种确定性数字技术,运用机器学习的智能司法以确定性的结果为目标,在类案推送、裁判文书的辅助生成等领域发挥了重要作用。
当然,智慧司法不是单一数字技术的运用,而是综合了大数据、算法、5G、机器学习等一系列数字技术,但没有改变数字技术以其确定性作为与司法相融合的基本理由。在不断提高的计算能力条件下,数字技术越来越多的被应用到司法的各个环节,并与司法的法定性形成了对应关系:从司法主体到诉讼程序,从司法管理到司法监督,司法运行的各个环节都可以运行在数字技术之中,并产生了相应的法律效力和司法权威。随着信息技术的发展,作为调节社会经济生活秩序的上层建筑,司法各要素被数字化的发展趋势愈发明显,从而推动智慧司法不断发展。
三、确定性视角下人工智能法官命题中的悖论
虽然大量智慧司法的成果印证了数字确定性与司法法定性之间的对应关系,但是,这种对应性并没有在司法的核心环节——裁判上得以体现并验证。裁判行为与司法权运行的其他环节具有明显不同的性质,数字技术是否可以以其确定性实现与裁判行为的结合从而催生出人工智能法官?“法律的不确定性像法律一样古老”。依据不确定的法律作出的裁判当然具有一定的不确定性,故法律允许法官对于案件存有不同见解,这在司法制度上已经体现出来,如合议制、上诉、申诉制度等,都是针对诉讼中不确定见解的处理机制。实际上,法律的不确定性命题不仅为法官自由裁量权的存在提供了形式合理性依据,也为司法裁判的能动性与“个案正义”提供了实质辩护。算法可以分为确定性算法和不确定性算法,至于人工智能法官的裁判是以确定性算法还是以不确定性算法作为自己的算法方法论,法学家们恐怕还难以猜到未来的具体方案。从结论确定性的角度来看,人工智能作出裁决可能存在三种结果:不能、不确定和确定。当然,如果“不能”的话,就不会产生人工智能法官。既然本文论证建立在人工智能法官高度发达的假设之上,我们暂且排除“不能”的情况,为了保证论证的周延,本文对人工智能法官裁判的不确定性与确定性分别进行讨论。
(一)如果人工智能法官作出裁判具有不确定性
人工智能法官作出裁判具有不确定性可以分为三种情况进行讨论,第一种情况是人工智能法官由于技术升级而提升裁判能力导致的裁判结果不确定,时间成为这一状态变化的主要维度,即不同时间上的不同裁判结果;第二种情况是在同一时间人工智能法官可以作出不同的裁判结果,算法的多样性是影响这一状态的主要因素;第三种情况是在一定时间内依靠不确定信息技术作出的裁判结果不确定,算法中的类人性是影响这一状态的主要因素。
1.信息技术发展带来的人工智能法官裁判不确定。实际上,与一般计算技术的描述与记载功能不同,人工智能技术的处理问题功能本身即具有不确定性,因为其依赖的数据、算法、算力等要素处于不断发展变化之中。这意味着,即使在法律没有变化的条件下,技术、数据等因素的变化可以使人工智能法官的裁决发生改变,在客观上产生这样一种现象:对于法律和事实相同的案件,由于人工智能技术的发展或者数据的完善,人工智能法官可能作出不同的裁判。显然这有违司法确定性的特征。只有作出不同裁判相隔的时间足够长,或者无法被人们所识别,人们才可能接受这样一种人工智能裁判效果,但这是不现实的,也不符合人工智能法官裁判在信息社会中应有的公开性。这种情况隐含的悖论是:人工智能不断发展的特性与司法稳定性之间的矛盾。如果以当前的信息技术作为人工智能法官的基础,则快速发展的人工智能将随时改变甚至颠覆现有的裁判技术,从而无法保持司法的稳定性;如果只有最先进的信息技术才能作为人工智能法官的裁判基础,那么不断发展进步的信息技术将永远无法提供所谓的“最先进”的裁判基础,人工智能法官的产生将一直处于对“最先进”技术的等待之中。
2.算法多样性带来的人工智能裁判的不确定。不同的法学流派、司法理念可能对同一案件带来不同的裁判结果,现实中也存在不完全相同的裁判方法。在进入数字化时代后,这些不同的裁判进路体现为人工智能法官的不同算法,必然导致人工智能法官裁判的不确定性。人工智能法官无论如何发展,都将无法也不必要消除这一客观情况。从计算机技术来讲,这是随机性或者模糊性运算方法的运用,比如随机化算法使用随机函数,以影响算法的执行流程或者结果。尽管没有一个特别的输入会使算法出现最坏情况,但是随机化算法仍呈现出“不稳定性和不全面性”的特点。看起来这似乎是一种接近自然人法官裁判方法的技术构造,具有模仿人类司法的倾向,而且还有可以弥补自然人法官裁判能力不足的优势。但是,这也意味着人工智能法官裁判仍然可以带来“同案不同判”的现象。如果人工智能对于同一案件每一次运算的结果都不一样,则无法让人接受人工智能裁判的公正性,其代替自然人法官的理由就不复存在。相对于自然人法官判断的天然主观性,人工智能因其随机性和模糊性更难以成为司法裁判的恰当主体。
既然自然人法官对于裁判结论的意见存在多样性,是否可以将自然人法官的裁决模式套用在人工智能法官身上,再加上人工智能法官裁判能力上的优势,从而打造出比自然人法官更公正的裁判主体?这是不可能的。如果人工智能法官作出的裁决具有多样性,则说明人工智能法官存在不同的裁判算法,意味着没有一种裁判算法获得了权威的裁判能力。对于自然人法官而言,可以通过合议或者上诉来决定最终的裁判结果,即通过诉讼程序的安排来解决最终结论确定性的问题。但是人工智能法官的本质在于解决裁判者与案件之间的认知关系,对于不同认知观点之间的协调,人工智能自身是无能为力的,因为人工智能本身代表了一种终极性的认知判断,对其进行合议或者上诉审查本身即意味着自相矛盾:保留少数意见的人工智能法官,不仅没有必要,还意味着司法缺乏权威性;淘汰少数意见的人工智能法官则意味着消除了裁判意见多样性的可能。对于人工智能法官而言,裁判的多样性意味着裁判的随机性,除非赋予这种裁判机制以神明的权威,否则不可能获得社会的认可。
3.不确定信息技术带来的人工智能裁判不确定。不确定性是人类认知过程中普遍存在的现象,当人们用概念、符号、语言、模型等来描述客观世界时,获得的认知具有不完备性或模糊性。随着量子力学、爱因斯坦相对论和混沌等理论的发展,人们认识到知识信息随着认知空间和认知环境的变化表现出一定程度的不确定性。本文仅以具有代表性的粒计算理论来分析不确定信息技术与裁判的对应关系。粒计算是一种新的计算范式,它以多粒度的表示、问题求解方法、信息处理模式等为研究对象,属于人类较高层次认知机理研究的范畴。粒计算是模拟人类认知复杂问题求解过程而提出来的方法论,形成了商空间理论、序贯三支决策、多粒度粗糙集、多尺度数据分析模型和多粒度形式概念分析等多种计算模型。站在人工智能的角度上来看,粒计算通过模拟人类对大规模问题进行考量和处理的方式,从解决实际产生的问题出发,选用满意度更高的较优解,而不是使用完全不考虑现实情况的精确最优解,来完成对问题的处理并提高解决效率。
裁判行为在一定程度上也表现为对不确定信息的处理,比如证据证明力上的可能性、当事人诉求的语言模糊性、对法律规则理解上的不确定性,等等。仅从语言模糊性而言,内在随机性是语言最重要的一个本质属性。人们把内在随机性看作是物质运动的一种形态——混沌态,混沌态决不是简单的无序态,而更像不具备周期性和其他明显对称特征的有序态,它比一般的有序态更高级。而人脑恰恰有处理这种混沌序的能力。粒计算等数字技术是否可以“较优解”实现与裁判不确定性的对应问题?这个问题也可以描述为:当数字技术越来越接近人类大脑的思维模式时,人工智能法官是否就相应地增加现实可能性?答案依然是否定的。首先,基于硅材料的计算技术不可能实现人类生物神经的功能,计算意义上的模拟思维代替不了人脑本体思维。尽管在信息储存和运算效率上数字技术可能比人脑更为优越,但是,人脑对于事物的本质性判断和价值思维是计算技术无法替代的,人工智能的“较优解”不可能代替自然人的“较优解”。其次,尽管解决具体不确定问题的数字技术所带来的结论在表面上是确定的,但以其为基础的司法裁判必然蕴含着“较优解”的不确定性。粒计算在司法之外的诸多场景中可能具备现实可行性,比如在煤矿安全生产领域的应用实践表明,多粒度认知计算是进行生产安全管理智能决策的有效模型。在司法裁判上,由于计算对象在粒度上不仅表现为信息自身的属性上,还表现在信息之间的平行关系上,约简算法通过删除冗余属性或添加重要属性不能彻底完成改善粒层和粒子结构,故难以在决策空间中得到使每个目标同时达到帕累托最优的决策。对于具有价值判断的裁判行为而言,解决不确定性问题的数字技术并不比其他数字技术具备更多的介入正当性。从实践来看,目前绝大多数的人工智能系统,在处理不确定性方面尚显不足,鲁棒性和可解释性存在局限,系统被当做一个“黑箱”(black-box)进行处理,中间的分析、决策过程对用户来说不可见,也缺乏可交互性和操作性。
综上,不管是出于人工智能技术的自身发展,还是算法的多样性,抑或出于本身就是不确定的算法,人工智能裁判结果的“不确定”状态都将无法支持人工智能法官被社会接受的可能性。而且,人工智能介入司法的最初动因就是为了解决自然人法官裁判的不确定性。因此,不论信息技术如何发展迅速、算法如何丰富,也不论不确定性信息技术如何接近人类思维,都难以在数字技术与司法裁判之间建立起对应性关系,无法将人工智能法官降落在人类司法文明的体系当中。
(二)如果人工智能法官作出的裁判结论是确定的
凡支持人工智能法官的论点,大都基于这样一个判断:即司法人工智能比自然人法官更能实现司法公正,因为在理论上人工智能是在信息处理能力上是超越人类法官的。该论断隐藏着这样一个前提:人工智能法官对于案件的裁判结论是确定的。如果是不确定的,那么这种比较结果就难以产生。因此,相对于上述对具有不确定性人工智能裁判的分析,更有意义的讨论是,能够作出确定裁判的人工智能体是否可能替代自然人法官。
如果司法允许一种确定性的数字技术裁判来代替人工法官裁判,那么就意味着司法本身实现了确定性,也就是说一个案件只对应一个裁判结果。这似乎实现了司法的理想图景:公正且统一。且不论信息技术是否真的可以发展到如此水平,即使从技术上能够实现这种理想,那么是否可以就此得出人工智能法官正当性的结论?仔细分析,具有裁决确定性的人工智能法官存在至少四个方面的悖论:
第一,认定事实上的悖论。对人工智能法官的功能,很多文章的描述是:只要输入事实,就可以输出裁判结果,AI法官体现的是一种“自动售货机”式的决策模式。但问题在于:案件的事实如何输入?人工智能对案件事实认定的介入,需要将证据数据化、对证据进行结构化的数据改造、其算法也需要面对可计算性与复杂性、解决机器学习如何深化、信念如何建立与机器如何表达等难题。当然,更值得考虑的是解决这些难题的必要性,因为人工智能认定事实的目标无非是模仿人类,而不可能存在超人类的对案件事实的判断。由于本文研究建立在人工智能法官“能够”解决这些问题的基础之上,故不再讨论人工智能认定事实的能力问题。假如这些难题均被克服了,即人工智能法官可以对案件事实作出确定性判断,仍至少会产生三个悖论:一是事实认定的个案确定性与算法漏洞规则化之间的悖论。司法中的事实认定是由裁判主体根据证据对以前发生事实的推断,无论是自然人法官还是人工智能法官,均不能实现对事实的认定与客观事实完全一致。基于计算而作出的事实认定,必然是一种概率化、类型化的事实判断,这与司法的个案认定存在内在逻辑的矛盾:自然人法官认定事实以个案为基准,在证据、法律(证据法)、事实(包括社会环境、生活经验、常识)之间可以无限反复往返,可以阻却事实认定中的小概率事件被忽视的可能性。虽然不能保证每一次认定都是准确的,但不可能形成规则性的漏洞,而且还可以通过上诉来进一步消弭错误的可能性;而人工智能认定事实的算法一旦形成,必然忽略小概率事件的可能性,如果将这种事实认定的算法规则公开的话,则很容易形成事实认定上的规则性漏洞,可能被重复利用从而将其错误效果无限放大,而且上诉程序(同样由人工智能法官来认定事实)对此也无能为力。二是事实的确定性与证据证明力概率之间的悖论。无论是刑事还是民事案件,在事实认定上均存在法官“自由心证”的裁量空间,自由心证的裁量依据并非完全来自于案件的客观证据,在很大程度上来自于法官的“感觉”,这是人工智能计算所不存在的逻辑,因此确定性的事实认定将抹杀自由心证的存在。比如,对于民事案件的事实认定,法律上规定了证据“高度可能性”规则,既然立法无法确定“高度可能性”的具体比值,比如是80%还是90%,那么人工智能法官何来权力与能力来确定“高度可能性”的具体标准?如何做到该标准的统一适用?三是人工智能事实认定的确定性与诉讼主体职能关系的悖论。在刑事案件中,如果公检法机关均使用相同的人工智能算法来认定事实,则其“相互制约”的机制将无法实现,因为对于证据的认定结果在哪个机关都是一样的。同时,也会引起与当事人诉讼权利关系上的悖论:对于人工智能法官做出的事实认定,是否允许当事人或者律师提出合理性怀疑?如果不允许,理由何在?人工智能法官毕竟不是神明裁判。如果允许,又有何用?人工智能算法重复运行也只会得出相同的结果。
可能会有人提出,西方国家陪审团认定事实并不需要提供理由而直接得出结论,那么是否可以允许人工智能法官在“算法黑箱”中得出认定案件事实的结论呢?笔者认为这种正当性也是不存在的。第一,陪审团是一种民主决策的机制,而人工智能则是计算技术决策机制,二者性质不同。第二,陪审团认定的案件事实,依然是直接基于案件证据作出的个案性裁判,不会形成人工智能法官算法或者数学模型的规则性漏洞。第三,陪审团因为没有受过专业训练,反而具有一种人与人之间的同类共情决策机制,甚至有人认为陪审团汇聚了公共智慧,比法官更能代表公平正义,陪审团作出的决定容易获得公众的认同;人工智能恰恰不具备这一决策模式。笔者经过搜寻,发现有国家存在人工智能法官基于既定的(自然人法官认定的)事实进行定罪或者量刑的做法,尚未发现世界上有国家允许人工智能法官介入事实认定的现象。
其次,在适用法律上的悖论。确定的裁判必然包括确定的法律适用,亦即消除了对法律理解的争议。如果人工智能对法律存在两种或者以上的理解,则人工智能法官的裁判结论就只能是随机的,从而失去裁判的正当性。对于人工智能裁判而言,只可能存在一种裁决意见,不存在合议庭的少数服从多数的决策机制。然而,对于法律的不同理解是客观存在的。基于不同的法理学说,法官往往对法律的理解呈现出不同的观点。比如《洞穴奇案》描述了对于同一案件事实的十四种不同裁决意见,而且,每一种意见均有相应的理论支撑。在司法实践中,“同案不同判”的现象在世界范围内存在,人工智能法官固然可以消除“同案不同判”,但是其采用的众说纷纭中某一种观点的正当性何以建立?这可能意味着新法律规则的创立,在西方国家被称为“法官造法”,在我国表现为“司法解释”。如果说人工智能法官以其强大的学习能力从而被赋予了裁判权,那么其造法(司法解释)的权力源于何处?故有学者提出,智能技术的使用应当被限定在无需人类价值判断的领域,因为价值判断往往存在多个不确定结论的可能性。实际上,法律适用争议本身就是司法纠纷的组成部分,人工智能法官对法律理解的确定性则排除了对法律适用的争议,从而形成了人工智能法官在适用法律上的自我矛盾。
而且,人工智能在法律适用上的确定性并不意味着正确性。对于人工智能在司法中可能的错误,人工智能“黑箱”释明难题决定了人工智能行为的不可解释性,这意味着不仅其自身无法纠正,而且人类也难以纠正。如此,将导致人工智能将成为人类法律的最终解释者,而人类还无从知道其解释的路径与内容。显然,只有将人工智能法官神明化之后才可能达到这样的效果。因此,人工智能法官将带来数字技术自身的科学性与神明化之间的悖论。或许有人认为更高水平的人工智能可以实现推理功能,可以对法律适用的理由提供法学专业的论述。那么,基于诉讼权利的基本安排,应当允许当事人通过上诉来挑战人工智能法官的裁判理由——这又陷入了与人工智能裁判确定性的矛盾循环。
第三,在诉讼程序上的悖论。数字技术的确定性似乎在法定诉讼程序的运行上可以得到恰当的体现,因为二者均具有确定性,能够实现彼此的对应。但是,现有诉讼程序的数字化呈现与人工智能法官条件下诉讼程序的要求并不相互对应人工智能法官裁判的确定性,将使诸多诉讼程序丧失存在价值:首先是审级制度。既然人工智能作出的裁判是确定的,那么就可以一审终审,没有必要进行二审或者三审了;更没有必要区分事实审与法律审,因为人工智能法官完全可以“毕其功于一役”。如果让自然人法官对人工智能法官裁判进行二审审查,也没有实际意义,因为二者的裁判逻辑不同。自然人法官在事实认定与法律适用上有不同于人工智能法官的意见,自然人法官否决人工智能法官的裁决实际上是否定了人工智能法官的裁判算法。即使是个案否定,也同样说明人工智能法官的不可靠性,因为司法中的争议本来就是个性化的,不能尊重个案情况的人工智能法官必然不能胜任裁判职能。其次是代理与辩论(辩护)制度。人工智能法官具备认定事实与适用法律能力的假设前提——只能是人工智能与案件事实和法律适用之间的认知关系,人工智能法官作出裁决将依靠自身的算法,而不是依靠律师的代理意见或者辩论(辩护)观点。其作出裁判的信息来源主体应当是限于当事人,根据当事人提供的案件信息就完全能够准确地适用法律来作出裁决,律师的代理与辩论(辩护)意见将成为干扰信息,无论在事实认定还是在法律适用上,律师均没有发挥作用的空间。现代控辩主义诉讼模式将彻底转换到职权主义诉讼模式。而且,人工智能法官的出现大概率伴随着人工智能律师的出现,如果人工智能裁判将人工智能律师的代理与辩论(辩护)意见考虑在内,则可能发生人工智能之间的意见纷争。因此,在人工智能法官能够确定性地认定事实和适用法律的条件下,律师代理与辩论(辩护)制度的功能将不复存在。第三是数字技术的确定性将消灭合议制度、审理期限制度、管辖制度。对于人工智能法官而言,这些制度都是针对自然人法官有限的裁判能力与主观性来设计的,其存在价值将因为数字技术的确定性而消失。
第四,在裁判能力上的悖论。人工智能法官存在自身的确定性与被投喂数据范围的矛盾。人工智能法官的算法形成仰赖于海量数据的投喂,即对于自然人法官裁判的不断学习。在一个法域之内,自然人法官与人工智能法官不应当共存,因为自然人法官无法审查人工智能法官的案件,人工智能法官也无法处理自然人审理过的案件,如果可以的话,则意味着自然人法官没有必要存在;而且,二者之间的“同案不同判”更加难以处理。但是离开了自然人法官的裁决作为投喂的数据,人工智能法官则只能在原有的信息领域内进行裁决,则必然导致人工智能法官裁决的“停滞”性,无法实现对社会发展的与时俱进。可以用“抄药方”现象来描述其中的逻辑:如果机器人“抄药方”能够代替医生的临床判断,必然导致医生能力下降并最终消失,医生的消失反过来导致机器人无新药方可抄,那么机器人医生也就丧失了存在和发展的基础。人工智能法官的裁判能力悖论还体现在在法学理论与司法实践的关系上:基于统计学、概率论基础的人工智能法官将无视法学理论的发展,人工智能裁决将无法得到法学理论发展的支撑。信息技术全面介入人的认识过程,在许多方面造成了人的认识能力退化。认识能力增强与认识能力退化是信息技术介入人的认识活动造成的典型的认识论悖论现象。对于一个法学界尚未带成共识的争议,人工智能法官凭什么来保证其裁决的正当性呢?无论是人工投喂数据,还是机器深度学习,都缺乏相应的“原料”。
综上,人工智能法官所带来的种种悖论源于其无法对应于以“人”为裁判主体的司法裁判机理。如果在人类现有的司法结构体系中引入人工智能法官,不仅与自然人法官形成了尴尬的共存或替代的关系,更是与人类发展至今的司法文明各个环节格格不入。或许,以事实认定和法律适用为技术基础的人工智能法官,或许更像为“执法”而创设的主体——能否兑现当然需要另行论证。在数字技术达到了人们所想象水平的假设基础上,确定的或者不确定的数字技术均无法完成对人工智能法官命题的证成任务。
四、“非典型性”司法对人工智能的接纳空间
司法是一种复杂人类活动。诉讼程序等司法环节因其确定性可以很容易地被数字方式呈现出来,并保持司法规律的要求;裁判行为则因其特有的决策机制导致很难穿上“智慧”的外衣。以交往理性为特征的司法决策机制显然不是仅仅“事实认定”和“法律适用”数字化所能替代的人类法治文明。国家权力机器的社会支配实践只有导入交往理性的精神内核,才有可能从迷信技术宰制的工具理性铁笼中挣脱出来。但是,另一方面,司法活动并不总是以典型的形式出现,有时表现出一定的“执法”特征,那么,建立在事实认定与法律适用智能化基础上的人工智能法官是否存在一定的被接纳空间?
(一)法律的不确定性是人工智能法官被接纳的根本障碍
裁判行为与人工智能之间的不可能对应性,并不意味着否认法律的确定性。法律的确定性与不确定性是相对的、也是共存的。在确定性需求与灵活性需求的不断碰撞和妥协中,人类社会的法律制度中普遍形成了一种可以应对社会生活复杂性与变化性的“适应性机制”,从而完成法律调整社会关系的任务。换言之,我们既要从法律的确定性出发来检视人工智能裁判的可能性,也不能回避法律过程中的不确定性因素。“模糊或多义的法律规范无法推出确切的裁决”;而且谈及法律及其确定性也不能脱离“人”的主体因素,如果未将“人”作为理解法本质的内在构成因素,法律的确定性更难以证成。作为法律现象,法律确定性是世界现象之部分,法律人对其理解可折射出对人及其所在世界的深层理解。要恰当理解法律确定性,需以恰当理解世界为先导。因此,在通往法律确定性的过程当中,“人”以其对世界的理解发挥着“法律在整体上有利于人类生存”的确定性作用,人工智能体在能够理解世界之前,无法充当实现法律确定性的“裁判主体”。
恩格斯曾说,“一门学科只有当它用数学表示的时候,才能被最后称为科学”。在人类的司法史上,尚未发现用数学来完成司法裁判过程的现象。信息技术将司法活动以数字化的方式呈现出来,仅仅是对于司法现象的数字描述,并不是将司法活动变成可以计算的数学行为,“用数字表示”与“用数学表示”存在着根本性的差别。智慧司法的主要逻辑是将司法活动以数字化的方式呈现出来,而不是将司法活动数学化。人工智能法官命题的实质,在技术上表现为试图从司法活动的数字化符号中发现并调整人类社会关系。数字化符号对于社会现象的描述只能是抽象的、概括的、片面的,必然存在着信息的丢失,比如,用语言符号描述一个人,无论描述的多么详细,都无法达到与被描述者的实际情况完全符合,而且不同的人描述也不同。或许只有当人类社会实现完全数智化之后,信息成为人类活动的基本载体,即社会现象本身实现数字化,才可能消除数字化符号与社会现象之间的信息差别,从而建立人工智能裁判的信息基础。即使实现了这样的社会发展条件,人工智能对于“所能理解世界”中的法律事务的处理恐怕也只能限于“执法”范畴,或者是法律预置到人类活动中的智能合约的自动执行,也仍然无法处理其自身所引发的纠纷案件。因为,司法的本质要求任何人不得作为自己的法官,人工智能也不应例外。完全数智化的社会环境中产生的规则纠纷在实质上是数字技术的如何改善问题,而不是一种数字技术与人类在主体地位上的竞争。
(二)司法裁判接纳人工智能的可能空间
如前所述,司法裁判的确定性与不确定性是相对的,司法裁判是确定的程序对不确定的裁判信息进行整理的结果。人工智能不能成为完全意义上的裁判主体,并不意味着不存在司法接纳人工智能裁判的空间。因为,一方面,在信息社会中,自然人法官的裁判能力难以保持工业社会时代对案件的覆盖性,亦即自然人法官很可能对于一些案件缺乏事实认定的能力,而需要信息收集和处理能力更强的人工智能体的辅助;另一方面,司法并不总是以“典型的司法”出现的,当特定的类型化案件反复出现时,人工智能法官会表现出一定的适应性。
1.人工智能作为自然人法官裁判能力之一部分。司法是对已经发生的事实进行认定和适用法律的过程。司法的不确定性既表现在事实认定上,因为法官无法直接洞察案件的客观事实;也表现在适用法律上,对法律的争议本身就是案件争议的组成部分。司法的确定性则主要表现在诉讼程序的法定性上,以及稳定的法官司法能力上。在信息社会条件下,司法网络公开对于司法权的运行带来了前所未有的围观效应:信息化条件下的裁判结果比较与评价,当前突出表现为所谓的“同案不同判”现象。对于该问题的不同回应,反映出不同国家对司法信息化的不同态度:一种是拒绝对司法的网络围观从而保持工业时代司法权威的态度,表现为以追求个案公正的西方大多数国家的做法,反对将案件裁决进行横向对比,甚至有的国家将对法官的案件数据分析定为非法甚至犯罪行为。另一种是积极拥抱司法信息化的态度,对于司法网络公开引发的问题从信息技术本身进行制度性回应,表现为我国引领的司法信息化迅速发展。对于因司法网络公开引发的“同案不同判”现象,我国制定实施了一系列的规范性文件,对法官课以类案注意义务,完善了我国司法决策的制度设计。从性质上来看,法官的类案注意义务既不是当事人诉讼权利的客体,亦非法官自身信息能力的组成部分,只能由法院通过技术手段向法官提供相关信息、作为法官的裁判辅助手段来实现。从司法外部来看,这种信息技术手段可以视为法官裁判能力的组成部分,那么就可以说人工智能已经在一定程度上参与了司法裁判。
法官的类案注意义务是为了实现案件裁决之间的比较性正义,只能是信息时代法官在审判管理上的义务,不可能成为诉讼内的程序性权利义务。但是,它也有工业时代司法制度中的对应物——“公设律师”以及“法庭之友”,它们都独立于法庭及当事人之外,向法官提供有利于司法公正的参考性意见,并弥补法官在特定领域的能力不足。尽管对于面临内外压力的法官而言,这样的辅助或参考难免将本应个殊化裁判、个别化量刑的个案被智能地规划为貌似相同的类案进而对法官产生相应的锚定效应,因而存在着被智能技术操控的风险,但是,这不妨碍其作为应对信息条件下满足司法公正需求的一项可行性制度,毕竟它是在尊重法官裁判主体地位前提下的非强制性义务。将类案注意义务设定为审判管理性义务,一方面可以避免案件的诉讼行为脱离“以事实为依据、以法律为准绳”的轨道,另一方面也为法官保持裁判主体地位、正确对待类案推送提供了合理的制度架构。只有把管理性义务和诉讼性义务区分开来,才能够真正尊重法官在裁判上的主体地位,否则法官可能过度依赖人工智能作出司法裁决,而不是基于自身的裁判逻辑,那么极可能架空司法责任制。
2.人工智能法官对于类型化案件的适用。从理论上来讲,任何案件都可以类型化,比如刑事案件可以根据罪名划分案件类型,民事案件可以根据案由划分案件类型,但对于人工智能来讲,这样的类型化并无多大意义,因为司法是在个案特殊性基础上展开诉讼程序的。从一定程度上来讲,一些诉讼程序比如当事人的举证、质证与辩论。严格限制合并审理就是为了保证避免案件被类型化处理而设定的。人工智能法官可以审理的类型化案件,仅仅是指那些在特定社会条件下重复出现的、几乎不存在个性化处理的类型化案件,对这种类型化案件的处理不需要充分体现司法活动的控辩性,输入案情材料就可以得到可靠的参考结论。比如,浙江省高级人民法院研发的“凤凰民间借贷智审”系统,对涉及案件实体裁判的部分,能够通过智能分析案卷材料、庭审实时归纳争议焦点、计算裁判数额、同步制作裁判文书等方式,充分提供智力支持,辅助法官裁判案件。如果案件出现了与类型化案件明显不同的条件时,则需要自然人法官承担案件的审理工作。实际上这些类型化的案件大多一审终审,即使需要二审审理,由于案件事实比较简单,不涉及所谓难以解释的司法算法黑箱,也不存在审理的障碍。
五、结语:思考智慧司法的角度与更高的假设
综合上述分析,可以得出本文的基本结论:作为数字技术与司法结合体的智慧司法,其发生发展的基本逻辑是:数字技术与司法各自基于自身的条件与需求而相互作用的机制。对于智慧司法这一关系命题,存在着两个思考角度:一个是从数字技术的角度考虑智慧司法的发展空间;另一个是从司法的角度考虑其在何等程度上能够被信息化。智慧司法的发展前景,取决于二者能够达成一致的供应与需求。从根本上来讲,前者不属于法学研究的任务,而是属于信息技术领域的专业问题,因为要解决的是信息技术如何发展。从法学的角度讲,应当研究的是司法自身与信息技术相结合的能力与需求。如果以法学家的想象来界定信息技术的发展可能性,可能会超出当前计算机学科的研究方向和研究能力。当然进行一种前瞻式的法学研究也未尝不可,但是问题的根本在于:智慧司法的决定因素并不仅仅取决于信息技术这一方面,更要看司法自身与信息技术结合的可能性。无论信息技术发展的如何强大,如果司法本身某些内容不具备被信息化的可能性,那么,以信息技术来改造司法的相应设想将成为海市蜃楼。从司法的角度来研究信息技术(的可用性)的目的不是要拒绝司法被信息化,而是寻求信息技术与司法有机结合的可能性,形成切实可行的智慧司法进路。
如前所述,本文的论证建立在“人工智能可以发展到能够满足作为法官的所有能力条件(包括认定事实和适用法律的能力)的水平”假设之上,从论证的周延看,是否还存在更高层次的假设?比如,假设人工智能体既具备以生物神经为基础的自然人一切功能,也具备数字技术的强大信息储存与处理能力,是否可以胜任人工智能法官呢?如果科技发展到这样的阶段,司法的主体、工具将合为一体,手段与目的也将统一,法律将以基于算法化预嵌的自动执行为主,而不再以法律职业群体事后的人工操作为主。在这样的语境中,人工智能法官命题的实质就是“司法代码化”,是一种比“法律代码化”更复杂也更遥远的关于智慧司法的设想,对此笔者无法排除人工智能法官的可能性,因为真正意义上的自然人已经不存在了,而现有意义上的法律或许也已经“死亡”了,关于法律的一切都要从头再来。
被称为在线纠纷解决之父的伊森·卡什早在2001年就曾指出:“技术解决纠纷的能量赶不上技术产生纠纷的能量。”在现有意义上的法律“死亡”之前,只要人类还保持自身的社会主体性,技术将只能处于人类活动的工具和客体地位,在司法领域也不例外。毕竟,现有意义上的法官,是现有司法文明的产物。而在“更高的假设”所描述的社会条件中,或许司法文明已经消失,讨论人工智能法官也就不再具有实际意义。
END
童伟华、丛星:“商标碰瓷”行为的刑法学思考——以互联网恶意投诉为分析对象
张晨原:元宇宙发展对个人信息保护的挑战及应对——兼论个人生物识别信息的概念重构
满洪杰、郭露露:可穿戴设备中的个人健康信息保护——以同意为核心的研究
倪雄飞:论小微企业劳动关系的法律调整——以《劳动合同法》属性为视角的分析